El món de la xarxa sempre ha estat ple de mentides i de notícies falses. Les conegudes com ‘Fake News’ han estat presents gairebé des que Internet va arribar a les nostres llars i no són pocs els usuaris i periodistes que intenten enfrontar-s’hi dia a dia. Ja no val només amb trobar una bona notícia sinó que, a més, cal contrastar la seva veracitat i veure si es tracta o no d’una ‘mentida new’ , ja que qualsevol persona amb accés a la xarxa pot publicar en ella i crear contingut i falsos rumors que enganyin a la resta d’usuaris.
Per si fos poc, en els últims temps han arribat també a les nostres pantalles els ‘Deepfakes’ , tècniques de modificació d’imatge gràcies a les qual s’aconsegueix que persones de tota mena apareguin en vídeos dient o fent coses que en veritat mai van succeir . D’aquesta manera, es pot sembrar el dubte a qualsevol espectador de si el que aquesta veient és o no real, ja que aquest tipus de vídeos deepfakes semblen tan autèntics que és molt complicat saber si es tracta o no d’una mentida.
Com es fan aquests vídeos?
La forma més comuna de realitzar aquest tipus de vídeos és amb aplicacions descarregables com FaceApp . Aquest programa utilitza un algoritme mitjançant el qual permet a l’usuari substituir unes cares per altres en els vídeos per, posteriorment, compartir-los a la xarxa i sembrar tot tipus de dubtes en la resta d’usuaris. El resultat és tan summament autèntic que costa diferències quan es tracta d’un vídeo realitzat amb FaceApp i aplicacions similars i quan no .
Però com aconsegueix exactament aquesta aplicació realitzar vídeos tan autèntics? </> Doncs, mitjançant un sistema de machine learning , a mesura que va passant el temps la Intel·ligència Artificial de la pròpia aplicació anirà aprenent a millorar a crear ‘màscares humanes’ capaços de substituir la cara d’altres persones en qualsevol vídeo de forma molt convincent.
Scarlett Johansson, Gal Gadot i els seus suposats vídeos porno
L’ús més famós que està tenint aquest tipus d’aplicacions és la de crear vídeos porno falsos amb dones famoses amb les que molts homes poden arribar fantasiejar. Moltes pàgines de vídeos per a adults s’han aprofitat d’aquest tipus de propostes i de la demanda dels seus usuaris per omplir les seves webs de contingut realitzat amb aplicacions com FaceApp. Entre les famoses que s’han vist afectades per aquesta nova i perillosa moda podem trobar a Gal Gadot, Jennifer Lawrence o a Scarlett Johansson.
Algunes d’elles han decidit amb total impotència acceptar la situació d’aquest tipus de contingut ja que els és pràcticament impossible lluitar contra ells, ja que com si d’una hidra es tractés, quan aconsegueixen que un s’elimini apareixen deu més.
De fet, a dia d’avui hi ha pàgines web dins del sector de la pornografia el contingut es basa única i exclusivament en vídeos ‘deepfakes’ …, i són molts els usuaris que entren diàriament i gaudeixen fantasiejant amb la idea de tenir relacions sexuals amb les seves actrius favorites.
Com reconèixer un vídeo deepfake
Com hem comentat és bastant difícil reconèixer quan un vídeo és deepfake i quan no, encara que alguns compten amb els seus propis mètodes. Per exemple, ‘The Wall Street Journal’ ha posat a treballar a diferents professionals amb l’objectiu d’identificar aquest tipus de vídeos a la xarxa de tal manera que, a més, puguin instruir els seus periodistes perquè ells també aconsegueixin fer-ho. A més, mitjançant programes d’edició de vídeo podem alentir per comprovar si aconseguim veure alguna cosa estranya en ell. Un treball bastant tediós ja que requereix hores i hores d’observació, però que finalment pot ajudar-nos a identificar si es tracta o no d’un deepfake.
D’altra banda, és important utilitzar la lògica i indagar en tot allò que pugui haver darrere del vídeo . A ‘The Wall Street Journal’ s’impulsa als seus treballadors a fer-se sempre tres preguntes claus que ajudaran a identificar aquest tipus de contingut: ‘Qui va poder haver-ho gravat?’ ‘Qui el va publicar?’ I ‘On es va compartir per primera vegada? ‘.
El perill de les Deepfake
A més del que vídeos de contingut per a adults han sortit a la llum infinitat de deepfakes de famosos en els quals es plantegen situacions que mai han tingut lloc. Algunes de les víctimes d’aquest tipus de continguts són Donald Trump (la qual cosa era d’esperar), barack Obama i fins i tot l’actor Steve buscemi. No obstant això, recordem que qualsevol pot ser víctima d’aquest tipus de vídeos i veure afectat per una moda que busca, en moltes ocasions, arruïnar la reputació de les persones.